صورة تعبيرية توضح دور الذكاء الاصطناعي في الحروب
وجد طفلٌ نفسه أمام شاشة هاتفه الذكي يشاهد فيديو. ما رآه لم يكن مجرد صورٍ للحرب، بل مشهدًا متقنَ الصنع، أُعيد ترتيبه وتزييفه بدقةٍ بالغة، حتى بدا وكأنه حقيقةٌ لا تقبل الشك. لم يكن يعرف أن ما يراه ليس من الواقع، بل من ذكاءٍ اصطناعي أصبح الآن طرفًا في الحرب نفسها.
في دقائق معدودة، انتشر الفيديو على منصات التواصل الاجتماعي، مثيرًا الذعر والغضب، محركًا مشاعر الملايين، ومغيرًا تصورات الناس عما يحدث في ساحات القتال بعيدًا عن أعين العالم. ما كان يُعرف في الماضي بالحرب التقليدية أصبح اليوم حربًا على الانتباه، على المعلومات، وعلى الحقيقة نفسها. الصور لم تعد مجرد توثيقٍ للواقع، بل أداةً لإعادة صياغة التاريخ في الزمن الحقيقي.
هذا الواقع الجديد لا يقتصر على الصور والفيديوهات فقط، بل يمتد إلى تحليلات البيانات، والخوارزميات التي تحدد أيَّ الأخبار تصل إليك، وأيَّ الحقائق تُخفى عنك. الذكاء الاصطناعي أصبح قادرًا على تشكيل الرأي العام بسرعة الضوء، قبل أن يتاح للعقل البشري تفسير الأحداث. أصبح من الممكن أن تتحول معلومةٌ واحدةٌ مزيفةٌ إلى قوةٍ أعظم من أي سلاحٍ تقليدي، وأن تُغير مسار الحرب قبل أن يرفع الجنود أسلحتهم.
ومع كل تقدمٍ في التكنولوجيا، تظهر تساؤلاتٌ أخلاقيةٌ هائلة: من المسؤول عن هذه المعلومات؟ من يتحكم في مصائر المدنيين المتأثرين بهذا التدفق المستمر من الأخبار والصور؟ وهل يمكن للبشر أن يواكبوا سرعة الذكاء الاصطناعي في زمنٍ أصبحت فيه الحقيقة قابلةً لإعادة الصياغة في أي لحظة؟
في هذا المقال، سنغوص في عالم الحروب الحديثة التي يقودها الذكاء الاصطناعي، نستكشف أدواتها، أخطارها، وكيف يمكن أن تتحول المعلومات نفسها إلى قوةٍ أعظم من أي سلاحٍ تقليدي. سنعرض أمثلةً مشوقةً وقصصًا واقعية، ونسلط الضوء على التحدي الإنساني والمعنوي في مواجهة هذه القوة الجديدة، مع طرح سؤالٍ أساسي: هل نحن مستعدون للحرب التي لا يمكن رؤيتها إلا من خلال أعين الآلة؟
في عالم الحروب الحديثة، لم يعد السلاح التقليدي وحده هو الذي يحدد ميزان القوى. الذكاء الاصطناعي دخل اللعبة بقوة ليصبح أداة حاسمة في النزاعات، قادرًا على تحليل البيانات، تصميم محتوى يصل إلى الملايين، وحتى التأثير المباشر على مجريات الأحداث. ما شاهدناه في المقدمة، الفيديو المزيف الذي شاهده الطفل، هو مثال حي على كيفية استخدام AI كسلاح على نطاق أوسع، حيث تتحول المعلومة نفسها إلى أداة قوة قادرة على تغيير تصور الناس للأحداث. ويتم ذلك عن طريق إنتاج فيديوهات وصور مزيفة دقيقة جدًا، يصعب التمييز بينها وبين الواقع الحقيقي، لتخلق حالة من الذعر والغضب بين المدنيين والمقاتلين، وهو ما يمكن اعتباره سلاحًا نفسيًا جديدًا يزيد من تأثير الحرب دون استخدام الأسلحة التقليدية.
وبالمثل، يتحكم AI في توجيه الانتباه الجماهيري نحو أو ضد أحداث معينة، وذلك عن طريق تحليل سلوك المستخدمين على منصات التواصل الاجتماعي واختيار اللحظة المثلى لإطلاق الأخبار أو الصور المزيفة. ومن خلال هذا الأسلوب، تتحول الحرب إلى صراع على الوعي والمعرفة، حيث يصبح كل شخص هدفًا لموجات معلوماتية مصممة خصيصًا له، وهو امتداد مباشر للفيديو الذي شاهدناه في المقدمة، الذي أظهر كيف يمكن لمعلومة واحدة أن تغيّر الواقع في لحظة.
ويتم ذلك أيضًا من خلال التحليل الاستراتيجي للبيانات في الوقت الفعلي، مما يسمح للجهات المتصارعة باتخاذ قرارات سريعة قبل أن يتمكن البشر من فهم مجريات الأحداث على الأرض. بهذا الشكل، يصبح AI طرفًا مباشرًا في الصراع، يوجّه ويخطط ويؤثر في النتائج بشكل غير تقليدي، وهو ما يعكس تمامًا القوة التي رأيناها في الفيديو الذي فتح أعين الطفل على عالم الحرب الرقمي. ومن خلال هذه العمليات، شهدت بعض النزاعات الحديثة تغييرات حقيقية في مجريات الاشتباكات دون تدخل السلاح التقليدي، وهو ما يربط تجربة الفرد الصغيرة بتأثير AI على نطاق عالمي.
ويتم ذلك في كثير من الأحيان دون إشراف بشري كامل، مما يطرح تساؤلات أخلاقية كبيرة: من المسؤول عن النتائج؟ وهل يجوز استخدام AI ضد المدنيين؟ هذه المخاطر تجعل ما بدأ كـ «تجربة فردية» في المقدمة يصبح قضية عالمية معقدة تؤثر على المدنيين والدول على حد سواء، مؤكدًا أن المعلومات اليوم ليست مجرد وسيلة توثيق، بل أصبحت سلاحًا ذا نتائج ملموسة.
شهدت ساحات النزاع في عام 2025 أمثلة ملموسة على كيفية استغلال الذكاء الاصطناعي في النزاعات الحديثة. في جنوب آسيا، أظهرت الأحداث بين الهند وباكستان كيف يمكن لتقنيات AI أن تُستغل في التضليل الإعلامي ونشر المحتوى الرقمي المزيف. استخدمت بعض الجهات أدوات لإنشاء صور وفيديوهات دقيقة مزيفة تُبث عبر منصات التواصل الاجتماعي بهدف توجيه الرأي العام المدني، وزعزعة الاستقرار النفسي، وتشويه المعلومات الحقيقية. هذه الأحداث توضّح أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة، بل أصبح طرفًا فعّالًا في النزاع، قادرًا على التأثير في موازين القوى الإعلامية والمعنوية على الأرض.
في الوقت نفسه، كشف الجيش الإيراني عن الروبوت القتالي «Aria»، وهو مركبة أرضية مسيّرة بالكامل مزودة بتقنيات ذكاء اصطناعي متقدمة تؤهّلها للعمل في ساحات القتال بصورة شبه مستقلة. استخدم النظام قدرات AI في رصد الأهداف، الاستطلاع، اتخاذ قرارات تكتيكية سريعة، ودعم العمليات العسكرية، ما يُعيد تعريف دور الذكاء الاصطناعي في الحروب الحديثة. ومع ذلك، يثير هذا التطور تساؤلات أخلاقية وقانونية حول مدى الاعتماد على الآلات في اتخاذ قرارات حياة أو موت، والمسؤولية عن النتائج المترتبة على ذلك.
معًا، تُظهر هذه الأمثلة أن الحرب الرقمية والذكاء الاصطناعي لم تعد فكرة نظرية، بل واقع ملموس يؤثر على المجتمع المدني والعمليات العسكرية في آن واحد، ويؤكد على الحاجة الملحّة إلى أطر أخلاقية وقانونية صارمة لضبط استخدام هذه التكنولوجيا في النزاعات الحديثة.
بينما أصبح الذكاء الاصطناعي أحد أدوات الصراع الحديثة، لم يعد المدنيون مجرد متفرجين على الأحداث، بل تحولوا إلى أهداف مباشرة في الحرب الرقمية. ما شاهده الطفل في الفيديو الذي افتتحنا به المقال لم يكن حالة منعزلة، بل جزءًا من استراتيجية أوسع تعتمد على الذكاء الاصطناعي في توجيه الانتباه والتحكم في السلوك الجماهيري عبر المحتوى الرقمي المزيف. ففي عصر المعلومات الرقمية، لم تعد الصورة أو الفيديو مجرد توثيق للواقع، بل سلاحًا استراتيجيًا قادرًا على التأثير في مشاعر الناس وسلوكهم، وتحليل سلوكياتهم، واستهدافهم برسائل متخصصة وفقًا لميولهم النفسية والاجتماعية.
يتم ذلك عن طريق انتشار الأخبار والمحتوى المضلل المزيف عبر منصات التواصل الاجتماعي، التي تعتمد خوارزميات الذكاء الاصطناعي لتوجيه المحتوى إلى المستخدمين الذين يُرجّح أن يتفاعلوا معه بشكل أكبر، وغالبًا ما يكون هذا المحتوى مصممًا لاستثارة مشاعر قوية مثل الخوف والغضب والقلق. هذا النمط من التضليل الإعلامي يجعل من الصعب على الجمهور تمييز الحقيقة من التزييف، ويعرضهم لموجات معلوماتية تقلب تصورهم للواقع.
وأظهرت تجارب وسلوكيات حقيقية أن تقنيات التزييف العميق (Deepfake) يمكنها إنتاج فيديوهات وصور مزيفة تبدو واقعية للغاية، بحيث يصعب حتى على الخبراء اكتشافها، مما يزيد من تأثيرها على المدنيين ويجعلها وسائل فعّالة في الحملات المعلوماتية. هذه الوسائل لا تذهب فقط إلى تغيير الرأي العام، بل قد تدفع الأفراد إلى اتخاذ قرارات فعلية، مثل الهروب من مناطق آمنة، أو مشاركة محتوى مضلل مع شبكاتهم الاجتماعية، أو حتى الاعتقاد بأحداث لم تحدث أصلًا، وهو ما يجعل المدنيين جزءًا لا يتجزأ من ميدان الصراع الرقمي.
وقد لوحظ أن الشبكات المعتمدة على الذكاء الاصطناعي، من خلال البوتات والحسابات المزيفة والتفاعل الآلي، تعمل على نشر المعلومات المضللة بسرعة تتجاوز قدرة المدققين البشريين على المتابعة، ما يزيد من مخاطر التلاعب بالمشاعر والقرارات اليومية للأشخاص. هذا التوسع في نشر التضليل ليس مجرد ظاهرة إعلامية عابرة، بل مؤشر على الجانب المظلم لتنمية المجتمعات الرقمية، وكيف يمكن للـ AI أن يعمّق الاستقطاب ويؤثر على الصحة النفسية للجمهور.
ولأن هذا الشكل من الحرب الرقمية يستهدف الإنسان نفسه بدل المواقع أو الاستراتيجيات العسكرية فقط، ظهرت دعوات كثيرة لتطوير أدوات مواجهة، مثل برامج كشف المحتوى المزيف، وتعزيز الوعي الرقمي لدى الجمهور، والتعليم النقدي في استخدام المعلومات الرقمية، وذلك بهدف حماية المدنيين من الحملات المضللة وتقليل أثرها على حياتهم اليومية.
مع التوسع السريع لاستخدام الذكاء الاصطناعي في النزاعات المسلحة، أصبح من الضروري طرح سؤال جوهري: من يتحمّل مسؤولية النتائج؟ لم يعد الذكاء الاصطناعي مجرد أداة أو تقنية مساعدة، بل أصبح يشكل جانبًا من جوانب القرار في ساحات الحرب — من تحليل البيانات إلى اتخاذ توصيات قد تغيّر مصير البشر أنفسهم. هذه الحقيقة تضع أمامنا تحديات أخلاقية وقانونية معقدة، لأن التكنولوجيا هنا لم تخلق فقط أدوات جديدة للحرب، بل قواعد جديدة يجب أن يُساءل البشر عنها.
القانون الدولي الإنساني، الذي وُضع في الأساس لحماية المدنيين وتقليل الضرر الناتج عن النزاعات المسلحة، لم يتحول بشكل كامل بعد ليواكب سرعة تطور الذكاء الاصطناعي وتطبيقاته في الحرب الرقمية أو الميدانية. ففي نهاية المطاف، الآلة نفسها لا يمكنها أن تُحاسَب قانونيًا لأنها ليست كيانًا ذا وعي أو إرادة؛ وبالتالي تصبح المسؤولية موجّهة إلى من صمّمها، أو من استخدمها، أو من سمح بتوظيفها في سياق القتال. هذا الفراغ في الإطار القانوني يخلق منطقة رمادية خطيرة قد تُستخدم فيها التكنولوجيا لإحداث أذى جسيم دون مساءلة واضحة للأطراف المعنية، مما يُضعف حماية المدنيين ويُعمّق الانتهاكات الإنسانية.
من ناحية أخلاقية، تثير أنظمة الذكاء الاصطناعي في الحرب أسئلة عميقة حول قيمة الحياة والقدرة البشرية على اتخاذ قرارات تتسم بالضمير والإنسانية. فقرارات الحرب — مثل التمييز بين مدني ومقاتل، أو تقرير مدى الضرر المقبول — هي قرارات كانت حتى وقت قريب تُتخذ من قِبل بشر مدرَّبين على مراعاة السياقات الإنسانية الدقيقة. لكن عندما تُترك هذه القرارات لآلة تقوم بمعالجة خوارزميات أو بيانات مُحصاة، فإن الضوابط الأخلاقية تصبح أقل وضوحًا، وقد تنتج قرارات تؤدي إلى إصابة أو قتل مدنيين، أو حتى تدمير بنى تحتية حيوية، دون أن يُستدعى أي طرف للمساءلة. هذا الواقع يجعل من الضروري أن يظل البشر المتحكمون بالقرارات النهائية هم المسؤولون عن النتائج، وأن تكون آليات الرقابة والشفافية جزءًا لا يتجزأ من أي استخدام للذكاء الاصطناعي في ساحات الحرب، لضمان أن تبقى الإنسانية في قلب كل قرار.
تحت أضواء الحرب الرقمية، أصبح الذكاء الاصطناعي طرفًا فاعلًا لا يقل أهمية عن السلاح التقليدي، قادرًا على التأثير في مسار النزاعات وتغيير حياة المدنيين قبل أن يرفع أي جندي سلاحه. الأمثلة الواقعية من جنوب آسيا والتجارب الميدانية الأخرى تظهر أن الحرب الرقمية ليست مجرد فكرة مستقبلية، بل واقع ملموس يتطلب وعيًا ومسؤولية.
ما بدأ كتجربة فردية أمام شاشة هاتف، أصبح اليوم قضية عالمية تتطلب أطرًا أخلاقية وقانونية واضحة، تحمي المدنيين وتضع البشر دائمًا في موقع المسؤولية النهائية عن القرارات المصيرية. إن القدرة على استخدام التكنولوجيا للخير أو الشر تعتمد على من يتحكم فيها، وعلى كيفية وضع الضوابط التي تضمن أن تبقى الإنسانية دائمًا في قلب كل قرار.
في نهاية المطاف، يظل السؤال الأكثر إلحاحًا: هل سنتمكن من ضبط قوة الذكاء الاصطناعي بما يحمي الأرواح ويصون القيم الإنسانية، أم أن المستقبل سيشهد حربًا لا يرى فيها الإنسان إلا من خلال أعين الآلة؟